از عکسهای واقعی، ضبطشده، فیلمها یا نوشتههای هوش مصنوعی به زبان ساده برای کودکان انسانی قابل استنشاق است. ممکن است بازیگران بد از این فناوری برای ایجاد اطلاعات نادرست یا تبلیغات گسترده استفاده کنند.[168] جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را در مورد این که هوش مصنوعی «رهبران اقتدارگرا» را قادر میسازد تا رأیدهندگان خود را در مقیاس بزرگ دستکاری کنند، از جمله خطرات دیگر ابراز کرد.[169]
تعصب و انصاف الگوریتمی
مقالات اصلی: تعصب الگوریتمی و عدالت (یادگیری ماشینی)
اگر برنامههای یادگیری ماشینی از دادههای بایاس یاد بگیرند، سوگیری هوش مصنوعی به زبان ساده برای کودکان خواهند داشت.[170] توسعه دهندگان ممکن است از وجود سوگیری آگاه نباشند.[171] تعصب را می توان با روشی که داده های آموزشی انتخاب می کند و روشی که یک مدل به کار می گیرد، معرفی کرد.[172][170] اگر از یک الگوریتم مغرضانه برای تصمیم گیری استفاده شود که می تواند به طور جدی به افراد آسیب برساند (همانطور که در پزشکی، مالی، استخدام، مسکن یا پلیس می تواند انجام شود) آنگاه الگوریتم ممکن است باعث تبعیض شود.[173] عدالت در یادگیری ماشینی مطالعه چگونگی جلوگیری از آسیب ناشی از سوگیری الگوریتمی است. این به حوزه جدی مطالعه دانشگاهی در هوش مصنوعی تبدیل شده است. محققان دریافتهاند که همیشه نمیتوان «انصاف» را به گونهای تعریف کرد که همه ذینفعان را راضی کند.[174]
در 28 ژوئن 2015، ویژگی جدید برچسبگذاری عکس Google Photos به اشتباه جکی آلسین و یکی از دوستانش را بهعنوان «گوریل» شناسایی کرد زیرا سیاهپوست بودند. این سیستم بر روی مجموعه داده ای که حاوی تصاویر بسیار کمی از افراد سیاهپوست بود، آموزش داده شد، [175] مشکلی به نام "اختلاف اندازه نمونه هوش مصنوعی به زبان ساده برای کودکان ". گوگل این مشکل را با جلوگیری از برچسب گذاری سیستم به هر چیزی به عنوان گوریل "رفع" کرد. هشت سال بعد، در سال 2023، Google Photos هنوز نتوانست یک گوریل را شناسایی کند، و همچنین محصولات مشابه اپل، فیس بوک، مایکروسافت و آمازون نیز نتوانستند شناسایی کنند.[177]
COMPAS یک برنامه تجاری است که به طور گسترده توسط هوش مصنوعی به زبان ساده برای کودکان دادگاه های ایالات متحده برای ارزیابی احتمال تکرار یک متهم استفاده می شود. در سال 2016، جولیا انگوین در ProPublica متوجه شد که COMPAS دارای تعصب نژادی است، علیرغم این واقعیت که به برنامه نژادهای متهمان گفته نشده بود. اگر چه میزان خطا برای سفیدپوستان و سیاهپوستان دقیقاً برابر با 61% بود، خطاها برای هر نژاد متفاوت بود - سیستم به طور مداوم احتمال اینکه یک سیاهپوست دوباره مرتکب جرم شود بیش از حد برآورد می کرد و این احتمال را دست کم می گرفت که یک فرد سفیدپوست این کار را انجام نمی دهد. تجاوز مجدد.[178] در سال 2017، چندین محقق [k] نشان دادند که از نظر ریاضی برای COMPAS غیرممکن است که تمام معیارهای ممکن برای انصاف را در نظر بگیرد، در حالی که نرخ هوش مصنوعی به زبان ساده برای کودکان پایه حمله مجدد برای سفیدپوستان و سیاه پوستان در داده ها متفاوت است.[180]
یک برنامه می تواند تصمیمات مغرضانه بگیرد حتی اگر داده ها به صراحت به یک ویژگی مشکل ساز (مانند "نژاد" یا "جنسیت") اشاره نکنند. این ویژگی با سایر ویژگیها (مانند «آدرس»، «سابقه خرید» یا «نام») مرتبط خواهد بود و برنامه همان تصمیمهایی را که در مورد «نژاد» یا «جنسیت» انجام میدهد، براساس این ویژگیها خواهد گرفت.[181 ] موریتز هارت گفت: "قوی ترین واقعیت در این زمینه تحقیقاتی این است که انصاف از طریق نابینایی کارساز نیست."[182]
انتقاد از COMPAS تأکید کرد که مدلهای یادگیری ماشین برای انجام «پیشبینیهایی» طراحی شدهاند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته است. اگر آنها بر روی داده هوش مصنوعی به زبان ساده برای کودکان هایی که شامل نتایج تصمیمات نژادپرستانه در گذشته است آموزش ببینند، مدل های یادگیری ماشینی باید پیش بینی کنند که تصمیمات نژادپرستانه در آینده گرفته خواهد شد. اگر برنامهای از این پیشبینیها به عنوان توصیه استفاده کند، برخی از این «توصیهها» احتمالاً نژادپرستانه خواهند بود.[183] بنابراین، یادگیری ماشین برای کمک به تصمیم گیری در زمینه هایی که امید به بهتر شدن آینده از گذشته وجود دارد، مناسب نیست. لزوماً توصیفی است و نه تشریحی.[l]
تعصب و بی انصافی ممکن است شناسایی نشود زیرا توسعه دهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود 4٪ سیاه پوست و 20٪ زن هستند.[176]
انجمن ماشین های محاسباتی در سئول، کره جنوبی، در کنفرانس سال 2022 خود در مورد انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)، یافته هایی را ارائه و منتشر کرد که توصیه می کند تا زمانی که سیستم های هوش مصنوعی و روباتیک عاری از اشتباهات سوگیری باشند، آنها ناامن هستند و استفاده از شبکه های هوش مصنوعی به زبان ساده برای کودکان عصبی خودآموز آموزش دیده بر روی منابع گسترده و غیرقابل تنظیم داده های اینترنتی ناقص باید محدود شود.[185]
عدم شفافیت
همچنین ببینید: هوش مصنوعی قابل توضیح، شفافیت الگوریتمی، و حق توضیح
خودروی آزمایشی لیدار برای رانندگی خودران
بسیاری از سیستم های هوش مصنوعی آنقدر پیچیده هستند که طراحان هوش مصنوعی به زبان ساده برای کودکان آنها نمی توانند توضیح دهند که چگونه به تصمیمات خود می رسند.[186] به ویژه در مورد شبکه های عصبی عمیق، که در آن مقدار زیادی روابط غیر خطی بین ورودی و خروجی وجود دارد. اما برخی از تکنیکهای قابل توضیح رایج وجود دارد.[187]
اگر کسی نداند دقیقاً چگونه کار می کند، نمی توان مطمئن بود که یک برنامه به درستی کار می کند. موارد زیادی وجود داشته است که یک برنامه یادگیری ماشینی تست های سختی را پشت سر گذاشته است، اما با این وجود چیزی متفاوت از آنچه برنامه نویسان در نظر داشتند یاد گرفته است. به عنوان مثال، سیستمی که می تواندArtificial intelligence in plain language for children بیماری های پوستی را بهتر از دارو شناسایی کند
از عکسهای واقعی، ضبطشده، فیلمها یا نوشتههای هوش مصنوعی به زبان ساده برای کودکان انسانی قابل استنشاق است. ممکن است بازیگران بد از این فناوری برای ایجاد اطلاعات نادرست یا تبلیغات گسترده استفاده کنند.[168] جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را در مورد این که هوش مصنوعی «رهبران اقتدارگرا» را قادر میسازد تا رأیدهندگان خود را در مقیاس بزرگ دستکاری کنند، از جمله خطرات دیگر ابراز کرد.[169]
تعصب و انصاف الگوریتمی
مقالات اصلی: تعصب الگوریتمی و عدالت (یادگیری ماشینی)
اگر برنامههای یادگیری ماشینی از دادههای بایاس یاد بگیرند، سوگیری هوش مصنوعی به زبان ساده برای کودکان خواهند داشت.[170] توسعه دهندگان ممکن است از وجود سوگیری آگاه نباشند.[171] تعصب را می توان با روشی که داده های آموزشی انتخاب می کند و روشی که یک مدل به کار می گیرد، معرفی کرد.[172][170] اگر از یک الگوریتم مغرضانه برای تصمیم گیری استفاده شود که می تواند به طور جدی به افراد آسیب برساند (همانطور که در پزشکی، مالی، استخدام، مسکن یا پلیس می تواند انجام شود) آنگاه الگوریتم ممکن است باعث تبعیض شود.[173] عدالت در یادگیری ماشینی مطالعه چگونگی جلوگیری از آسیب ناشی از سوگیری الگوریتمی است. این به حوزه جدی مطالعه دانشگاهی در هوش مصنوعی تبدیل شده است. محققان دریافتهاند که همیشه نمیتوان «انصاف» را به گونهای تعریف کرد که همه ذینفعان را راضی کند.[174]
در 28 ژوئن 2015، ویژگی جدید برچسبگذاری عکس Google Photos به اشتباه جکی آلسین و یکی از دوستانش را بهعنوان «گوریل» شناسایی کرد زیرا سیاهپوست بودند. این سیستم بر روی مجموعه داده ای که حاوی تصاویر بسیار کمی از افراد سیاهپوست بود، آموزش داده شد، [175] مشکلی به نام "اختلاف اندازه نمونه هوش مصنوعی به زبان ساده برای کودکان ". گوگل این مشکل را با جلوگیری از برچسب گذاری سیستم به هر چیزی به عنوان گوریل "رفع" کرد. هشت سال بعد، در سال 2023، Google Photos هنوز نتوانست یک گوریل را شناسایی کند، و همچنین محصولات مشابه اپل، فیس بوک، مایکروسافت و آمازون نیز نتوانستند شناسایی کنند.[177]
COMPAS یک برنامه تجاری است که به طور گسترده توسط هوش مصنوعی به زبان ساده برای کودکان دادگاه های ایالات متحده برای ارزیابی احتمال تکرار یک متهم استفاده می شود. در سال 2016، جولیا انگوین در ProPublica متوجه شد که COMPAS دارای تعصب نژادی است، علیرغم این واقعیت که به برنامه نژادهای متهمان گفته نشده بود. اگر چه میزان خطا برای سفیدپوستان و سیاهپوستان دقیقاً برابر با 61% بود، خطاها برای هر نژاد متفاوت بود - سیستم به طور مداوم احتمال اینکه یک سیاهپوست دوباره مرتکب جرم شود بیش از حد برآورد می کرد و این احتمال را دست کم می گرفت که یک فرد سفیدپوست این کار را انجام نمی دهد. تجاوز مجدد.[178] در سال 2017، چندین محقق [k] نشان دادند که از نظر ریاضی برای COMPAS غیرممکن است که تمام معیارهای ممکن برای انصاف را در نظر بگیرد، در حالی که نرخ هوش مصنوعی به زبان ساده برای کودکان پایه حمله مجدد برای سفیدپوستان و سیاه پوستان در داده ها متفاوت است.[180]
یک برنامه می تواند تصمیمات مغرضانه بگیرد حتی اگر داده ها به صراحت به یک ویژگی مشکل ساز (مانند "نژاد" یا "جنسیت") اشاره نکنند. این ویژگی با سایر ویژگیها (مانند «آدرس»، «سابقه خرید» یا «نام») مرتبط خواهد بود و برنامه همان تصمیمهایی را که در مورد «نژاد» یا «جنسیت» انجام میدهد، براساس این ویژگیها خواهد گرفت.[181 ] موریتز هارت گفت: "قوی ترین واقعیت در این زمینه تحقیقاتی این است که انصاف از طریق نابینایی کارساز نیست."[182]
انتقاد از COMPAS تأکید کرد که مدلهای یادگیری ماشین برای انجام «پیشبینیهایی» طراحی شدهاند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته است. اگر آنها بر روی داده هوش مصنوعی به زبان ساده برای کودکان هایی که شامل نتایج تصمیمات نژادپرستانه در گذشته است آموزش ببینند، مدل های یادگیری ماشینی باید پیش بینی کنند که تصمیمات نژادپرستانه در آینده گرفته خواهد شد. اگر برنامهای از این پیشبینیها به عنوان توصیه استفاده کند، برخی از این «توصیهها» احتمالاً نژادپرستانه خواهند بود.[183] بنابراین، یادگیری ماشین برای کمک به تصمیم گیری در زمینه هایی که امید به بهتر شدن آینده از گذشته وجود دارد، مناسب نیست. لزوماً توصیفی است و نه تشریحی.[l]
تعصب و بی انصافی ممکن است شناسایی نشود زیرا توسعه دهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود 4٪ سیاه پوست و 20٪ زن هستند.[176]
انجمن ماشین های محاسباتی در سئول، کره جنوبی، در کنفرانس سال 2022 خود در مورد انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)، یافته هایی را ارائه و منتشر کرد که توصیه می کند تا زمانی که سیستم های هوش مصنوعی و روباتیک عاری از اشتباهات سوگیری باشند، آنها ناامن هستند و استفاده از شبکه های هوش مصنوعی به زبان ساده برای کودکان عصبی خودآموز آموزش دیده بر روی منابع گسترده و غیرقابل تنظیم داده های اینترنتی ناقص باید محدود شود.[185]
عدم شفافیت
همچنین ببینید: هوش مصنوعی قابل توضیح، شفافیت الگوریتمی، و حق توضیح
خودروی آزمایشی لیدار برای رانندگی خودران
بسیاری از سیستم های هوش مصنوعی آنقدر پیچیده هستند که طراحان هوش مصنوعی به زبان ساده برای کودکان آنها نمی توانند توضیح دهند که چگونه به تصمیمات خود می رسند.[186] به ویژه در مورد شبکه های عصبی عمیق، که در آن مقدار زیادی روابط غیر خطی بین ورودی و خروجی وجود دارد. اما برخی از تکنیکهای قابل توضیح رایج وجود دارد.[187]
اگر کسی نداند دقیقاً چگونه کار می کند، نمی توان مطمئن بود که یک برنامه به درستی کار می کند. موارد زیادی وجود داشته است که یک برنامه یادگیری ماشینی تست های سختی را پشت سر گذاشته است، اما با این وجود چیزی متفاوت از آنچه برنامه نویسان در نظر داشتند یاد گرفته است. به عنوان مثال، سیستمی که می تواندArtificial intelligence in plain language for children بیماری های پوستی را بهتر از دارو شناسایی کند